我们提出了一种强化学习(RL)方法,用于稳健优化风险感知性能标准。要允许代理表达各种风险奖励简档,我们使用Rank Inceredent预期实用程序(RDEU)评估策略的值。RDEU允许代理人寻求收益,同时保护自己免受下行风险。为了强调对模型不确定性的最佳政策,我们通过分布来评估一个政策,而是通过围绕Wassersein球中的最严重的可能分布来评估一项政策。因此,我们的问题制定可以被视为选择策略(外部问题)的演员/代理人,并且对手作用以恶化该策略的性能(内部问题)。我们为内部和外部问题制定明确的政策渐变公式,并在三种原型财务问题上显示出效力:强大的投资组合分配,优化基准和统计套利。
translated by 谷歌翻译
基于变压器的架构在许多下游流动任务中显示出显着的结果,包括问题应答。另一方面,数据的可用性阻碍了获得低资源语言的合法性能。在本文中,我们调查了预先训练的多语言模型的适用性,以提高低资源语言的问题的表现。我们使用与MLQA DataSet类似的七种语言进行多语言变压器架构测试了四种语言和任务适配器的组合。此外,我们还提出了使用语言和任务适配器回答的低资源问题的零拍摄转移学习。我们观察到堆叠语言和任务适配器对低资源语言的微语文变压器模型的性能显着提高。
translated by 谷歌翻译
过去十年互联网上可用的信息和信息量增加。该数字化导致自动应答系统需要从冗余和过渡知识源中提取富有成效的信息。这些系统旨在利用自然语言理解(NLU)从此巨型知识源到用户查询中最突出的答案,从而取决于问题答案(QA)字段。问题答案涉及但不限于用户问题映射的步骤,以获取相关查询,检索相关信息,从检索到的信息等找到最佳合适的答案等。当前对深度学习模型的当前改进估计所有这些任务的令人信服的性能改进。在本综述工作中,根据问题的类型,答案类型,证据答案来源和建模方法进行分析QA场的研究方向。此细节随后是自动问题生成,相似性检测和语言的低资源可用性等领域的开放挑战。最后,提出了对可用数据集和评估措施的调查。
translated by 谷歌翻译